Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 4:8 --save --min_col 1
Last Line: wikitext perplexity 6.740179538726807
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 4:8 --save --min_col 2
Last Line: wikitext perplexity 6.740168571472168
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 4:8 --save --min_col 3
Last Line: wikitext perplexity 6.740347385406494
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 4:8 --save --min_col 4
Last Line: wikitext perplexity 6.7408037185668945
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 4:8 --save --min_col 5
Last Line: wikitext perplexity 6.742598056793213
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 4:8 --save --min_col 6
Last Line: wikitext perplexity 6.741116523742676
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 4:8 --save --min_col 7
Last Line: wikitext perplexity 6.7428154945373535
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 4:8 --save --min_col 8
Last Line: wikitext perplexity 6.742913722991943
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 4:8 --save --min_col 9
Last Line: wikitext perplexity 6.742521286010742
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 4:8 --save --min_col 10
Last Line: wikitext perplexity 6.743709087371826
---------------------------
